- Entropie-Einheit
- aerodyn. E.E.
Универсальный русско-немецкий словарь. Академик.ру. 2011.
Универсальный русско-немецкий словарь. Академик.ру. 2011.
Entropie (Thermodynamik) — Dieser Artikel wurde den Mitarbeitern der Redaktion Physik zur Qualitätssicherung aufgetragen. Wenn Du Dich mit dem Thema auskennst, bist Du herzlich eingeladen, Dich an der Prüfung und möglichen Verbesserung des Artikels zu beteiligen. Der… … Deutsch Wikipedia
Entropie (Informationstheorie) — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Das… … Deutsch Wikipedia
Entropie (Physik) — Dieser Artikel wurde aufgrund von inhaltlichen Mängeln auf der Qualitätssicherungsseite des Portals Physik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Physik auf ein akzeptables Niveau zu bringen. Dabei werden… … Deutsch Wikipedia
Entropie — Maß der Unordnung; Maß für den Informationsgehalt * * * En|tro|pie 〈f. 19〉 1. 〈Phys.〉 Zustandsgröße der Thermodynamik 2. Maß für die „Unordnung“ in einem abgeschlossenen System 3. 〈Kommunikationstheorie〉 Größe des Nachrichtengehaltes einer nach… … Universal-Lexikon
Maximale Entropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… … Deutsch Wikipedia
Shannon-Entropie — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… … Deutsch Wikipedia
Soziale Entropie — In die Sozialwissenschaften fand der Begriff der Entropie Eingang sowohl als physikalische Zustandsgröße wie auch als ein Maß aus der Informationstheorie. Eine der menschlichen Intuition entgegenkommende Weise, die Bedeutung von Entropie… … Deutsch Wikipedia
Planck-Einheit — Die Planck Einheiten, benannt nach Max Planck, bilden ein natürliches Einheitensystem. Sie werden aus drei Naturkonstanten hergeleitet, nämlich der Gravitationskonstanten G, der Vakuumlichtgeschwindigkeit c und dem planckschen Wirkungsquantum h… … Deutsch Wikipedia
Clausius (Einheit) — Das Clausius (Einheitenzeichen: Cl) ist eine veraltete und (seit 1978) unzulässige Einheit der Entropie. Sie ist benannt nach dem Entdecker der Entropie, dem deutschen Physiker Rudolf Julius Emanuel Clausius. 1 Cl = 1 cal/Grad = 4,1868… … Deutsch Wikipedia
Shannon (Einheit) — Shannon (Sh) ist die nach dem amerikanischen Mathematiker und Begründer der Informationstheorie Claude Elwood Shannon benannte Einheit für den Informationsgehalt einer Nachricht. Inhaltsverzeichnis 1 Definition 2 Beispiele 3 Normung … Deutsch Wikipedia
Informationsdichte — Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide… … Deutsch Wikipedia